LA PSICANALISI SECONDO
SCIACCHITANO

"TU PUOI PENSARE CON UN PENSIERO VARIABILE"
creata il 24 maggio 2012 aggiornata il 28 maggio 2012

 

 

Tre statistici vanno a caccia. Vedono un lepre. Il primo spara. Colpo un metro a destra. Il secondo spara. Colpo un metro a sinistra. Colpita!, urla il terzo.

Per un’epistemologia della variabilità

La nozione di variabilità è decisamente moderna. Gli antichi Greci non usavano bollettini metereologici; non parlavano di “sereno variabile”; non avevano neppure la parola per dire variabilità.

Ma cosa si intende veramente con variabilità?

L’opinione corrente, derivata in parte proprio dalla meteorologia, intende la variabilità statistica. La variabilità è la variabilità ontica di ciò che c’è, che non è fisso ma mutevole, transitorio, perfino caduco: il reddito, l’umore della mia fidanzata, le conchiglie sulla spiaggia non sono mai cose uguali a se stesse nel tempo e nello spazio. Variabilità è disidentità e quindi è premessa del divenire e dell’evolvere. Questa concezione è estremamente diffusa. Consultando Wikipedia si trova codificata la concezione ontico-statistica in termini adatti alle applicazioni tecniche:

“Nella terminologia statistica la variabilità di un carattere X, rilevato su n unità statistiche, è l’attitudine di questo a manifestarsi in diversi modi, ossia con diverse modalità. Quando il carattere è quantitativo, la variabilità può essere misurata usando indici basati sulla distanza delle modalità rispetto a un indice di posizione (generalmente rispetto alla media aritmetica o alla mediana); gli indici di variabilità più utilizzati sono la varianza, la deviazione standard e il coefficiente di variazione. Se invece il carattere è qualitativo, la variabilità può essere misurata con indici di eterogeneità.”

Ma cosa si può dire a livello epistemico?

Cosa sa il soggetto della scienza della variabilità e quale sapere esprime attraverso tale nozione? Come ho già detto, le lingue morte, per noi classiche, il greco antico e il latino, non hanno neppure le parole per dire “variabilità”. Non è irragionevole pensare che gli antichi Greci non avessero la nozione di variabilità. Ciò sembra paradossale, perché disponevano sia di un’elaborata teoria matematica della misura, spinta fino alla misura di grandezze incommensurabili, sia della precisa nozione filosofica di molteplicità, eventualmente da ridurre all’unicità del concetto. Non avevano neppure la nozione di equazione, che presuppone l’eguaglianza dei valori di una variabile a destra e a sinistra del segno di uguale. Un’equazione polinomiale ha in genere una molteplicità di radici, tra loro simmetriche, nel senso che una loro permutazione è ancora una soluzione dell’equazione. Ma senza simmetria non c’è verso di immaginare la variabilità, tanto meno le differenze e le identità. Euclide chiamava summétroi due grandezze che avessero una misura comune, dimostrando di non possedere i moderni concetti di simmetria e di variabilità.

Forse devo andare più piano; allora abbandono il livello storico, che risulterà più istruttivo solo dopo che sia stata elaborata la cornice teorica entro cui inquadrare i dati storici.

Intuitivamente, si può pensare che la nozione di variabilità dipenda da quella di velocità. Un mobile ha una posizione variabile nello spazio con il passare del tempo, quindi la variabilità sarebbe un modo adatto a pensare la velocità. Questo è vero, ma non è tutta la verità. È vero che gli antichi non sapevano concettualizzare né il movimento né la velocità, come mostrano i paradossi di Zenone. Ma è ancora più vero che gli antichi non avevano neppure la nozione di spazio, entro cui concepire il movimento. O meglio, per gli antichi (fino a Kant) lo spazio stesso non era variabile, ma unico; era lo spazio descritto dalla topologia euclidea e non ce ne erano altri. Bisogna aspettare il XIX secolo perché il geometra riesca a concepire spazi non euclidei, dove non vale il postulato dell’unicità della parallela.

Questo è un punto storicamente rilevante. Gli antichi greci, inventarono la dimostrazione matematica rigorosa. Depuis les Grecs, qui dit mathématique dit démonstration, così esordisce Bourbaki nel suo monumentale trattato, che perfino nel titolo, Eléments de mathématiques, mima gli Elementi di Euclide. Si tratta dell’assetto ipotetico-deduttivo, che insegna a dedurre teoremi da assiomi, assunti come verità ipotetiche. Ciononostante gli antichi greci rimasero al di qua della matematica moderna; sapevano sì dimostrare rigorosamente i propri teoremi, ma non sapevano generalizzarli a spazi diversi da quelli in cui erano stati originariamente concepiti. La geometria antica era una geometria “geometrica”, fondamentalmente intuitiva, fatta con riga e compasso e basata su figure; non era una geometria “algebrica” o astratta, fatta di scritture formali, basata sulle famigerate formule. Cartesio, inventore insieme a Viète della geometria algebrica, non fu antico; fu il primo matematico moderno.

Il matematico antico trattava un solo spazio, come ho già detto; non concepiva classi di spazi. Se si pensa astrattamente al movimento di un mobile come “successione di spazi diversi nel tempo”, e non solo come successione di posizioni diverse del mobile entro lo stesso spazio, si capisce perché un Aristotele non riuscì a concepire la nozione di velocità istantanea, necessaria alla meccanica delle forze; infatti, la velocità istantanea è la tangente alla traiettoria del mobile; quindi, è un elemento di uno spazio diverso dallo spazio ordinario, appunto è lo spazio tangente allo spazio ordinario. Niente spazi, niente variabilità, niente velocità, quindi, fino ai tempi moderni (con l’unica eccezione di Archimede) niente meccanicismo.

Ora scendo dal piano metamatematico e faccio un esempio matematico concreto.

Consideriamo la forma di variabilità più semplice, quella di una cosiddetta variabile binaria, dove i valori che possono variare sono solo due, diciamo x e y come 0 e 1. La domanda cruciale è: su un insieme di due elementi quante topologie si possono costruire? E prima ancora, cos’è una topologia e perché convocarla a proposito di variabilità?

Grosso modo, la topologia è un artificio matematico per costruire spazi, detti appunto topologici, in base alla relazione di vicinanza. La variabilità della vicinanza è il modello topologico di variabilità: più vicino, meno vicino, vicino quanto si vuole, ecco come la topologia parla di variabilità. Concretamente, in topologia la vicinanza viene introdotta attraverso la nozione di “aperto”.

Allora, uno spazio topologico è caratterizzato da una famiglia F di aperti. Gli aperti sono sottoinsiemi dell’insieme X. Lo spazio topologico è allora la coppia (X, F), dove X è l’insieme sostegno (o supporto) dello spazio e F è la famiglia caratteristica dello spazio; F è formata da sottoinsiemi di X, i quali soddisfano due assiomi topologici:

1. assioma dell’unione: qualunque unione di aperti è aperta; appartiene a F;

2. assioma dell’intersezione: l’intersezione di due aperti è aperta; appartiene a F.

Nel caso di un insieme binario, X = {1, 0}, quanti spazi topologici è possibile costruire su X? Tanti quante sono le possibili famiglie di aperti, nel caso tre:

F1 = {X, V}, dove V indica l’insieme vuoto o senza elementi;

F2 = {X, {1}, V} equivalente topologicamente a F2 = {X, {0}, V};

F3 = {X, {1}, {0}, V}.

La topologia F1, detta anche topologia indiscreta, non ammette variabilità, essendo la topologia del tutto (X) o nulla (V).

La topologia F2 è la cosiddetta topologia di Sierpinski, o del punto incluso; gli aperti sono i sottoinsiemi che contengono l’elemento privilegiato 1 (o equivalentemente 0), nel caso X e {1}, oltre a V che è aperto (e chiuso) d’ufficio, anche se non contiene nessun elemento. F2 è una topologia connessa, perché non ha due aperti disgiunti, la cui unione è lo spazio intero.

La topologia F3 è la cosiddetta topologia discreta, dove tutti i sottoinsiemi dell’insieme sostegno sono aperti. Si dimostra facilmente che la topologia discreta è una topologia metrica, perché può essere definita da una distanza d, nel caso d(x, y) = 0, se x uguale a y; d(x, y) = 1, se x diverso da y.

Conoscevano la topologia del punto incluso gli antichi greci? La risposta è: sicuramente no; la ragione è logica; infatti, la logica greca, tipicamente l’aristotelica, si fondava sul principio del terzo escluso, cioè sulla validità universale dell’enunciato X vel non X, per ogni enunciato X; con un’opportuna definizione di negazione (come complemento della chiusura), si dimostra che le topologie connesse non soddisfano il principio del terzo escluso. Le topologie connesse sono topologie intuizioniste: sospendono la validità generale del principio del terzo escluso. L’intuizionismo è un prodotto del XX secolo, che sospende l’onniscienza. 23 secoli prima, in piena epoca classica, era troppo presto.

Conoscevano la topologia discreta gli antichi greci? La risposta è: forse sì. Gli antichi greci conoscevano bene l’operazione di misura di due grandezze, che è necessaria a calcolare la distanza, ma non fecero un uso sistematico della metrica; la loro geometria rimase fondamentalmente una geometria delle forme immerse nell’unico spazio dell’intuizione: lo spazio euclideo (la cui topologia è la metrica indotta dal teorema di Pitagora). C’è da dire, inoltre, che nel caso binario l’unica metrica possibile, quella discreta, non serve a definire la nozione di velocità, avendo tutte le traiettorie in ogni punto tangente uguale a 1. Ancora una volta, niente spazio alla variabilità.

Insomma, concludo la prima parte di questa pagina, affermando che gli antichi greci disponevano solo della topologia indiscreta del tutto o nulla, buona a pensare la molteplicità che si riduce all’unità, ma inadatta a pensare la variabilità, quindi la velocità, quindi la simmetria, quindi la meccanica.

E come vanno le cose con noi moderni?

Noi moderni ci siamo assunti un compito gravoso, che gli antichi hanno sistematicamente respinto: trattare l’infinito. Non essendo una “figura” della “buona” molteplicità, come la chiamava Hegel, non essendo una forma di variabilità riconducibile a qualche forma di unità, non essendo “categorico”, l’infinito era impensabile per gli antichi, che di fronte all’infinito cadevano vittime di una patologica inibizione; sono a posteriori giustificabili solo perché mancavano degli strumenti intellettuali necessari ad affrontarlo, in primis la nozione di variabilità.

Si può dire che l’acquisizione fondamentale del Rinascimento italiano, in particolare dell’Umanesimo matematico dei Francesco Maurolico, Guidubaldo dal Monte, Luca Valerio, Bonaventura Cavalieri, Evangelista Torricelli, a quali va aggiunto Piero della Francesca, fu il superamento dell’inibizione classica a pensare l’infinito, unitamente alla rottura delle forme di pensiero scolastiche, che coartavano l’infinito nell’Uno (fino a Vico). In matematica l’evento è chiarissimo; corrispose all’esplosione dell’algebra, che prese il sopravvento sulla geometria, la quale si trovò di fronte al dilemma o perire o algebrizzarsi. Sappiamo quale fu la scelta.

L’algebra introduce nel mondo statico euclideo la variabilità, precondizione necessaria per pensare l’infinito. L’infinito moderno, prima che quantitativamente sempre più grande (per esempio in Platone) è qualitativamente sempre diverso, cioè vario, indipendentemente da ogni sistema di misura.

Sono due i fronti di sviluppo dell’algebra: la teoria delle equazioni, fondamentalmente avviata da Cartesio, e la teoria delle funzioni, fondamentalmente avviata da Leibniz e Eulero, con il non trascurabile contributo di Newton. Cos’è un’equazione? Cos’è una funzione? Sono in generale scritture per addomesticare la variabilità, che per natura è selvaggia. Parlo prima delle funzioni – oggi si preferisce parlare di applicazioni – perché le equazioni sono un loro caso particolare.

La scrittura funzionale (o applicativa) è un algoritmo per passare da una variabile all’altra o, più antropomorficamente, per trasformare una variabile in un’altra; la funzione passa da ogni argomento del dominio della funzione a un ben definito valore del suo codominio e a uno solo. In formule, definite le due variabili X e Y, rispettivamente il dominio e il codominio dell’applicazione f, l’applicazione f si scrive f : X –>Y ; più in dettaglio x–>y = f(x), dove x e y sono rispettivamente elementi degli insiemi X e Y.

Sono molte le cose da dire a proposito di questa definizione.

In primo luogo, modernamente intesa, una variabile è un insieme di valori, a prescindere dalla loro natura e dal loro ordine. Ciò rende il concetto di variabile indefinito, in quanto la nozione di insieme non è definibile direttamente. Ogni definizione diretta di insieme, a cominciare da quella proposta da Cantor, è circolare (“Un insieme è una collezione, concepita come un tutto, di determinati oggetti ben distinti tra loro, che sono chiamati elementi dell'insieme”). Dell’insieme si può dare solo una definizione implicita all’interno di una teoria assiomatica come quella (infinitaria) di Zermelo e Fraenkel o quella (finitaria) di von Neumann, che, guarda caso, “definisce” gli insiemi proprio come applicazioni di insiemi sull’insieme {1, 0}, una pratica divenuta usuale oggi in teoria delle categorie; (ogni insieme è un sottoinsieme di una classe che non è un insieme). Di conseguenza, il concetto di funzione o di applicazione risulta primitivo; in effetti, è uno dei concetti matematici più generale insieme a quello di spazio. (Più generale è solo il funtore o funzione di funzioni, insieme alle funzioni o morfismi, che modificano le applicazioni tra spazi).

In secondo luogo, l’algoritmo funzionale usa due operatori logici, che non erano familiari ai logici e ai matematici antichi, data la loro inibizione nei confronti della generalizzazione: l’operatore universale (per ogni) e l’operatore esistenziale (esiste almeno un). Infatti, si dice che tra due insiemi X e Y vale l’applicazione o mappa o funzione f: X–>Y, se per ogni elemento x del dominio X, detto argomento, esiste uno e un solo elemento y del codominio Y, detto immagine o valore della funzione e indicato con f(x).

Noto di sfuggita che nella matematica moderna l’accoppiata degli operatori per ogni ed esiste è usuale; praticamente, quasi tutte le definizioni di oggetti matematici vi fanno ricorso. Noto, questa volta non di sfuggita, che nella definizione non si fa ricorso alla nozione di legge, che a ogni argomento del dominio farebbe corrispondere un ben determinato (per legge) valore del codominio. La nozione di legge, con il corredo di concetti ausiliari come determinismo, eziologia e prevedibilità, non ha più corso nella scienza moderna, essendo un concetto giuridico e non scientifico. Le leggi scientifiche, intese come regolarità legali della natura, che si ripete sempre uguale a se stessa, fanno parte di un bagaglio metafisico ormai obsoleto. Infatti, esistono funzioni aleatorie che a ogni esperimento, per esempio il lancio di una moneta, associano in modo non deterministico un preciso risultato e uno solo: o testa o croce, essendo esclusa la possibilità che il risultato sperimentale sia contemporaneamente testa e croce. L’insieme delle funzioni aleatorie forma lo spazio delle probabilità, un’altra nozione ignota agli antichi, che praticavano sì il gioco dei dadi, ma senza disporre della teoria; (il loro modo di giocare non era solo rischioso, ma azzardoso).

(Porto acqua al mio mulino psicanalitico, facendo notare che la porta della generalizzazione potrebbe essere il luogo attraverso cui introdurre la nozione di variabilità in una teoria psicanalitica, che pretenda di essere scientifica. Precisamente, si tratterebbe di pensare l’interpretazione psicanalitica, che ultimamente è una narrazione diacronica, spesso mitologica, come elemento di una classe di interpretazioni (plurale!), tutte egualmente plausibili e tra loro reciprocamente e sincronicamente compatibili. Ne ho parlato il 12 maggio 2012 all’Umanitaria di Milano in un breve intervento dal titolo Interpretazione come generalizzazione.)

Dalla nozione di funzione come trasformazione di variabili nasce l’analisi moderna; Fermat, Leibniz e Newton furono i primi a generalizzare il concetto di variabilità, implicito in una funzione, alle funzioni – giustamente – dette derivate; sono funzioni che dicono come varia la variabilità di una funzione. Il calcolo differenziale e integrale nasce come calcolo della variabilità, rispettivamente in piccolo (allora è calcolo delle tangenti) e in grande (allora è calcolo delle aree). Non stupisce che inglese sia considerato come il calculus per antonomasia. Entrambi i calcoli erano “innaturali” per gli antichi, che non disponevano della moderna nozione di numero reale. (Per gli antichi esistevano solo i numeri interi.) Sono abbastanza anziano per ricordare che un tempo il calcolo infinitesimale si chiamava “calcolo sublime” e abbastanza intelligente da capire che, quando il filosofo parla con sufficienza di “scienza calcolante ”, non sa quel che dice.

Infine, per quanto riguarda le equazioni, basti dire che si riducono all’individuazione – non sempre facile – della funzione inversa. Data l’equazione, f(x) = 0, è dato il valore della funzione, appunto lo zero; estrarne le radici significa invertire la f, cioè trovare quegli argomenti del dominio di f, che f applica sul valore 0. In generale, l’equazione f(x) = 0 definisce uno spazio algebrico (detto anche nucleo di f). Oggi esistono tanti spazi quante sono le equazioni che si possono scrivere. In generale, un insieme si scrive con un’equazione, cioè come insieme delle x che soddisfano l’equazione f(x) = 0. Questa variabilità insiemistica di spazi era impensabile all’epoca di Euclide (che Cartesio non apprezzava particolarmente).

Concludo questa pagina affermando che la variabilità è una nozione epistemica che “sa” qualcosa, pur non sapendola in modo categorico, cioè chiaro e distinto; sa, non sapendo definirli, cos’è una variabile o un insieme, eventualmente infiniti. Questo sapere del soggetto della scienza è fondamentalmente un’ignoranza; ma con tale ignoranza il soggetto della scienza sa operare; non è inibito come l’antico soggetto della conoscenza; sa in pratica rendere parzialmente esplicito, ciò che è destinato a restare essenzialmente implicito e conosciuto solo in modo incompleto; lo conosce e lo esplicita in particolare nella pratica del calcolo e della generalizzazione.

Da ultimo un’osservazione, che giustifica il motivo per cui ha senso parlare di variabilità in un sito di psicanalisi. Dal punto di vista epistemico, la variabilità funziona come l’inconscio per l’analista, che non sa che cosa sia, ma sa lavorarci sopra in pratica. A questo proposito è curiosa la constatazione che la nozione di variabilità e le nozioni connesse di equazione e simmetria non figurino nelle teorie psicanalitiche. Perché? La ragione è che le teorie psicanalitiche, indipendentemente dalle scuole di provenienza, sono ancora lungi dall’essere teorie scientifiche. Non avendo variabilità, le teorie analitiche non possono essere falsificate, perché non si sa se, per ogni loro argomento, esiste un preciso valore di verità, vero o falso, 1 o 0. Non avendo variabilità, quelle analitiche sono dottrine (solo vere) da accettare ex cathedra senza discutere; non sono teorie scientifiche (vere o false), da sottoporre a falsificazione. Non avendo variabilità, le teorie analitiche hanno avuto solo guru. (E da un po’ di tempo neanche quelli). Non avendo variabilità, le teorie analitiche non sono mai state moderne.

Chi a questo punto abbandona la pagina, può andarsene ricordando una cosa sola:

non esiste altra epistemologia scientifica che della variabilità.

Se ha una formazione più filosofica può chiamarla epistemologia dell’incertezza o del dubbio.

Allora può passare a una delle tante pagine dove in questo sito si parla della transizione dall’incertezza alla certezza, in generale nelle pagine sul tempo epistemico, in particolare nella pagina sul tempo sincronico. Ma anche un’occhiata a dove si parla di scienze dell'ignoranza può essere fruttuosa.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

SAPERE IN ESSERE

SAPERE IN DIVENIRE

Torna alla Home Page